Unidades de Información | ||
---|---|---|
La unidad natural de información (símbolo: nat),[1] a veces también nit o nepit, se utiliza para medir la información o entropía. Está basada en el logaritmo natural y en las potencias del número e, en lugar de los logaritmos de base 2 y las potencias de 2, que definen bits. Esta unidad también es conocida por su símbolo de unidad, el nat.
El nat es la unidad coherente para cuantificar la entropía de la información. El Sistema Internacional de Unidades, al asignar las mismas unidades (julios por kelvin) tanto a la capacidad calorífica como a la entropía termodinámica, trata implícitamente la entropía de la información como una magnitud adimensional, con 1 nat = 1. Los sistemas físicos de unidades naturales que normalizan la constante de Boltzmann a 1 están midiendo la entropía termodinámica en nats.
Cuando la entropía se especifica usando un logaritmo natural,
se está dando implícitamente un número medido en nats.
Una nat es igual a 1ln 2 shannons (o bits) ≈ 1.44 Sh o, equivalentemente, 1ln 10 hartleys ≈ 0.434 Hart.[1] Los factores 1.44 y 0.434 surgen de las relaciones
Una nat es el contenido de información de un evento si la probabilidad de que ocurra ese evento es 1/e.